- STATISTIQUE (MÉCANIQUE)
- STATISTIQUE (MÉCANIQUE)La mécanique statistique a pour but d’expliquer les propriétés de la matière, en particulier ses propriétés thermiques, à partir des lois de la mécanique auxquelles obéissent les atomes et molécules dont elle est formée (et, plus généralement, d’expliquer les propriétés des systèmes composés d’un grand nombre de particules). Il n’est pas possible de décrire le comportement individuel des quelque 1023 atomes qui constituent 1 gramme d’eau; que ferait-on d’ailleurs de la liste complète de leurs positions à un instant donné, liste qui remplirait environ 1020 pages imprimées? Il faut donc recourir à une description mécanique à caractère statistique .Pendant la première moitié du XIXe siècle, les travaux de Sadi Carnot, Julius R. V. Mayer, Joseph J. Thomson, Rudolf Clausius, notamment, avaient permis de développer la thermodynamique [cf. THERMODYNAMIQUE], qui traite des propriétés thermiques de la matière d’un point de vue macroscopique, à partir de principes posés a priori. Dans la seconde moitié du XIXe siècle, la structure atomique de la matière est enfin admise, non sans réticences, par les physiciens; la mécanique statistique naît alors, principalement grâce à Ludwig Boltzmann, qui reprend certains travaux de James Maxwell, et à Josiah W. Gibbs. Un des objets de la mécanique statistique est donc de donner une interprétation microscopique des lois de la thermodynamique.Une telle interprétation doit surmonter un paradoxe: l’évolution dans le temps d’un système macroscopique, telle qu’elle est décrite par la thermodynamique, est irréversible [cf. IRRÉVERSIBILITÉ], alors que les lois de la mécanique atomique sous-jacente décrivent des mouvements réversibles. Par exemple, si après avoir versé du lait dans du café on pouvait inverser les vitesses de tous les atomes, on verrait le mélange repasser par ses états antérieurs successifs et se séparer en lait et café. La clé du paradoxe est que les conditions initiales qui conduiraient à une telle séparation sont fantastiquement improbables, et c’est pour cela que des «remontées dans le temps» ne se produisent, en fait, jamais.Mais la mécanique statistique ne se borne pas à servir de fondement à la thermodynamique; elle va beaucoup plus loin. La thermodynamique ne peut que relier un phénomène macroscopique à un autre, par des énoncés du type: «Si un fluide obéit à telle équation d’état , alors il cède telle chaleur à l’extérieur quand on le comprime à température constante.» La mécanique statistique, elle, relie les phénomènes macroscopiques à la structure microscopique; elle permet, au moins en principe, de calculer l’équation d’état elle-même à partir des forces intermoléculaires (cf. état LIQUIDE). D’autre part, la mécanique statistique rend possible le calcul de quantités microscopiques, par exemple la fonction de corrélation qui décrit la façon dont une molécule influence en moyenne les positions de ses voisines; une telle fonction est une quantité observable, car elle régit la diffusion de rayons X ou de neutrons par la matière. Les fonctions de corrélation jouent un rôle important pour l’étude des systèmes hors d’équilibre.Une application de la mécanique statistique qui a eu un impact considérable sur le développement de la physique moderne a été la théorie du rayonnement du corps noir , élaborée par Planck en 1900, grâce à l’introduction du concept de quantum d’énergie. Ce travail a été le point de départ de toute la physique quantique.1. FondementsMoyennes temporelles, problème ergodique, ensemble microcanoniqueOn part de la mécanique microscopique à laquelle obéissent les particules constitutives du système qu’on veut étudier. En principe, c’est la mécanique quantique, et elle engendrera une mécanique statistique quantique . En fait, la mécanique classique est souvent une approximation suffisante (par exemple, pour décrire les mouvements de translation, dans la plupart des cas, des molécules d’un fluide); une description classique au niveau microscopique sera la base de la mécanique statistique classique. Celle-ci peut être obtenue à partir de la mécanique statistique quantique en faisant tendre la constante de Planck h vers zéro.Bornons-nous pour l’instant au cadre classique. On définit un état microscopique du système auquel on s’intéresse par la donnée de M coordonnées q i et de M moments conjugués p i [cf. MÉCANIQUE ANALYTIQUE]; par exemple, pour un système formé de N molécules, dans le cas où la structure interne de ces molécules peut être négligée, les q i sont les 3 N composantes cartésiennes des positions des molécules, les p i étant les 3 N composantes cartésiennes de leurs quantités de mouvement. Un état microscopique peut donc être représenté par un point de coordonnées q 1, q 2, ..., q M; p 1, p 2, ..., p M dans un espace abstrait à 2 M dimensions, qu’on appelle l’espace des phases . Au cours du temps, le point représentatif évolue et décrit une trajectoire dans l’espace des phases.Une variable dynamique est une fonction A(q 1, ..., q M; p 1, ..., p M), qui dépend implicitement du temps, par l’intermédiaire des p i et des q i (son évolution au cours du temps est régie par les équations de Hamilton ; cf. MÉCANIQUE ANALYTIQUE). Une mesure de A dans un système en équilibre s’effectue toujours pendant un temps 精, qui est très long à l’échelle des mouvements microscopiques. C’est donc une moyenne temporelle de A sur un temps «infini» que l’on observe:Par exemple, la pression d’un fluide s’obtient en prenant la moyenne temporelle de la résultante des forces que les molécules exercent sur un élément de paroi.Si le système est isolé, son énergie demeure constante, et la trajectoire de son point représentatif dans l’espace des phases reste sur une hypersurface d’énergie constante à 2 M 漣 1 dimensions. On simplifiera le langage en supposant que l’énergie, définie seulement à 嗀E près ( 嗀E étant petit), est comprise entre les valeurs E et E + 嗀E; la trajectoire reste alors à l’intérieur de la couche d’énergie comprise entre les hypersurfaces d’énergies E et E + 嗀E. Dans cette couche, la trajectoire est fantastiquement compliquée, et le principe de base de la mécanique statistique consiste à dire que la trajectoire remplit avec une certaine uniformité toute la couche d’énergie.S’il en est ainsi, on peut considérer un ensemble de systèmes identiques dont les points représentatifs sont répartis dans l’espace des phases avec une densité 福(q 1, ..., p M), qui sera ici une constante positive dans la couche d’énergie et nulle en dehors de cette couche. Cette loi de répartition définit un ensemble microcanonique . La moyenne temporelle (1) relative à un système pourra alors être remplacée par une moyenne sur un ensemble dans l’espace des phases:on a supposé la densité 福 normalisée:Le problème de démontrer l’équivalence entre (1) et (2) constitue le problème ergodique . Ce problème, extrêmement difficile, n’est qu’imparfaitement résolu à l’heure actuelle. Des progrès importants ont cependant été faits ces dernières années par des physiciens soviétiques, notamment par Y. Sinai qui a résolu le problème ergodique dans le cas particulier d’un modèle de gaz fini formé de sphères impénétrables. D’autre part, on sait maintenant, pour un «petit» système de quelques centaines de particules, calculer numériquement sur un ordinateur les moyennes (1) et (2), et on les trouve effectivement égales à la précision des calculs près; en un certain sens, ces calculs sur ordinateur constituent une «démonstration» de l’ergodicité.Certains auteurs adoptent un point de vue selon lequel la mécanique statistique n’a pas besoin de se poser le problème ergodique. Ils disent que, puisqu’on ignore l’état microscopique exact du système étudié, la mécanique statistique est nécessairement une science probabiliste et elle doit se fonder sur une hypothèse a priori concernant les probabilités des différents états microscopiques compatibles avec ce qu’on sait du système. Soit un système isolé en équilibre, dont l’énergie E est une constante connue (à 嗀E près). Puisqu’on ne sait rien d’autre sur l’état microscopique, on dira que tous les états de la couche d’énergie ont des probabilités a priori égales, et on considérera donc un ensemble microcanonique de systèmes répartis avec une densité 福 uniforme dans la couche d’énergie. Une telle répartition est raisonnable parce qu’elle n’est pas en contradiction avec les lois de la dynamique: on peut montrer (théorème de Liouville ) qu’un ensemble de systèmes isolés distribués dans l’espace de phase avec une densité 福 qui ne dépend que de l’énergie (ce qui est ici le cas) conserve cette distribution au cours du temps [cf. MÉCANIQUE ANALYTIQUE].En mécanique statistique quantique, des considérations analogues conduisent à définir l’ensemble microcanonique en attribuant des probabilités égales à tous les états propres quantiques |n 礪 du système dont les énergies En sont comprises entre E et E + 嗀E. La valeur moyenne de la variable dynamique représentée par l’opérateur A sera alors définie par:où 福(En ) est une constante, positive si E 麗 En 麗 E + 嗀E, et nulle autrement; 福(En ) est encore supposée normalisée:On remarquera qu’en mécanique statistique quantique on doit faire une double moyenne, quantique:puis statistique:Entropie statistique et thermodynamiqueLa mécanique statistique donne un fondement microscopique à l’entropie S [cf. ENTROPIE], par la formule de Boltzmann :où S est l’entropie, k = 1,380 44 憐 10-16 erg/K, la constante de Boltzmann, et W le nombre des états microscopiques accessibles au système pour un état macroscopique donné. En mécanique statistique quantique, W est le nombre des états quantiques accessibles. Pour un système isolé en équilibre, d’énergie E (donnée à 嗀E près), W est donc le nombre des états quantiques compris dans la couche d’énergie (E, E + 嗀E). En mécanique statistique classique, W se réduit à l’expression:où h est la constante de Planck. L’intégrale est le volume d’espace des phases compris dans la couche d’énergie. P est le nombre de points (q 1, ..., p M) de l’espace des phases qui ne diffèrent que par des permutations entre particules identiques; pour calculer W, on a divisé le nombre d’états par P parce que ces P points doivent être considérés comme décrivant le même état microscopique.Pour un système hors d’équilibre, le nombre d’états microscopiques accessibles W est restreint par les contraintes macroscopiques qui expriment que le système est hors d’équilibre. Par exemple, pour un gaz qui n’occupe que la moitié du récipient qui lui est offert, et qui est donc hors d’équilibre, W doit être calculé par (7) en restreignant l’intégrale sur les coordonnées de position q i à la partie du récipient occupée par le gaz. Si on relâche les contraintes qui maintenaient le système hors d’équilibre, de nouveaux états microscopiques deviennent accessibles, par suite W donc l’entropie S augmentent. La figure 1 représente les étapes successives de cette évolution. La mécanique statistique explique donc que l’entropie d’un système qui évolue vers l’équilibre augmente, ce qui est un des aspects du deuxième principe de la thermodynamique [cf. THERMODYNAMIQUE]. L’irréversibilité de l’évolution vers l’équilibre vient de ce que le nombre d’états microscopiques qui correspondent à l’état macroscopique d’équilibre constitue la quasi-totalité des états microscopiques accessibles. Le postulat des probabilités égales pour tous les états microscopiques entraîne que la probabilité qu’a le système de retourner spontanément dans un état hors d’équilibre est négligeable.Pour un système isolé à l’équilibre, le nombre d’états microscopiques accessibles W est fonction de l’énergie E du système (qui se confond avec l’énergie interne de la thermodynamique), de son volume V, et éventuellement d’autres paramètres définissant des forces extérieures auxquelles le système serait soumis.La tâche propre de la mécanique statistique se réduit au calcul de W. Toutes les difficultés inhérentes à l’étude d’un système composé d’un grand nombre de particules sont concentrées dans ce calcul, qui, sauf dans des cas particuliers simples, ne peut être mené que de façon approchée ou numérique; on notera par exemple que (7) comporte une intégration sur 2 M variables, avec M de l’ordre de 1023!À partir de W, la formule de Boltzmann (6) donne l’entropie S en fonction de E, V,. La connaissance de la fonction S(E, V, ) détermine alors toutes les propriétés thermodynamiques du système. Sa température absolue T est donnée par:sa pression p par:et on peut ensuite calculer facilement les autres fonctions thermodynamiques.Ensemble canoniqueSoit un système qui n’est plus isolé, mais qui est en contact thermique avec son environnement. Cet environnement est supposé maintenu à une température bien définie T; il constitue ce qu’on appelle un thermostat . Le système et le thermostat peuvent échanger de la chaleur, et l’énergie E du système n’a pas une valeur fixée. Lorsque le système est en équilibre, on montre que la probabilité pour qu’il occupe un état microscopique n d’énergie En est:où k est encore la constante de Boltzmann et Z une constante de normalisation. La valeur moyenne d’une variable dynamique s’obtiendra maintenant en prenant la moyenne sur un ensemble de systèmes identiques distribués en énergie selon la loi de répartition (10); un tel ensemble s’appelle ensemble canonique .La probabilité pour que le système occupe l’un quelconque des états microscopiques dont l’énergie est comprise entre E et E + d E est:où d W est le nombre d’états microscopiques dont l’énergie est dans l’intervalle d E. Si le système est macroscopique, on montre que:a un maximum aigu en fonction de E pour une certaine valeur E; l’énergie du système ne fluctue que peu en valeur relative autour de E. Il n’y a pas de différence essentielle entre le comportement d’un système macroscopique en contact avec un thermostat de température T et celui d’un système isolé d’énergie E. On peut donc utiliser aussi l’ensemble canonique pour calculer les propriétés d’un système isolé. En fait, l’ensemble canonique est presque toujours d’un maniement pratique plus commode que l’ensemble microcanonique.Dans le formalisme de l’ensemble canonique, toutes les propriétés thermodynamiques peuvent s’obtenir à partir de la constante de normalisation Z de (10). Cette constante s’appelle la fonction de partition ; elle a pour expression:où la somme porte sur tous les états quantiques du système. À la limite de la mécanique statistique classique, (12) se réduit à:La fonction de partition Z donnée par (12) ou (13) est fonction de la température T du système, de son volume V, et éventuellement des autres paramètres. On montre que l’énergie libre du système est:La tâche propre de la mécanique statistique se réduit donc au calcul de Z. On obtient ensuite, à partir de l’énergie libre (14), les autres fonctions thermodynamiques, la pression étant:l’énergie interne :et l’ entropie :2. Exemples de systèmes en équilibreLe formalisme qui a été développé dans la partie précédente est utilisé dans de très nombreux domaines de la physique. En général, l’application du formalisme conduit à des problèmes très difficiles. Ici, on se contentera de citer quelques cas simples.GazL’application de la mécanique statistique aux gaz est décrite dans cet ouvrage (cf. état GAZEUX). On notera seulement ici que, à partir de la température T définie en mécanique statistique par (6) et (7), on trouve pour l’équation d’état d’un gaz parfait composé de N molécules la loi bien connue:La température qui a été définie ici coïncide donc bien avec la température absolue de l’échelle des gaz parfaits.Lorsque la longueur d’onde thermique associée aux particules de masse m d’un système, = h / 連2 神mk T, n’est pas négligeable devant la distance moyenne entre particules, il faut tenir compte des effets quantiques.Statistique de Fermi-DiracSi les particules sont des fermions (c’est-à-dire des particules à spin demi-entier; cf. PARTICULES ÉLÉMENTAIRES) identiques (par exemple, des électrons ou des nucléons), le principe de Pauli s’applique (cf. ATOME, chap. 2). Lorsque les interactions sont négligeables, on peut définir des états quantiques à une particule, et le principe de Pauli dit alors qu’il ne peut y avoir que zéro ou une particule dans chacun de ces états quantiques 見. On montre que le nombre moyen de particules dans l’état 見 d’énergie 﨎 size=1見 est:où le potentiel chimique 猪 est une constante définie par la condition que le nombre total de particules soit N:N size=1見 est compris entre 0 et 1, et décroît lorsque l’énergie 﨎 size=1見 croît (fig. 2). Si la température T tend vers zéro, la fonction N size=1見(T) se réduit à une «marche d’escalier»: tous les états quantiques dont l’énergie est inférieure à l’énergie de Fermi 﨎F sont pleins (N size=1見 = 1), tous les autres sont vides (N size=1見 = 0).La statistique de Fermi-Dirac s’applique par exemple aux électrons d’un métal.Statistique de Bose-EinsteinOn suppose encore que les interactions sont négligeables. Si les particules sont des bosons (c’est-à-dire des particules à spin entier ou nul) identiques, il peut maintenant y avoir un nombre quelconque de particules dans chacun des états quantiques 見. On montre que le nombre moyen de particules dans l’état 見 est maintenant:Pour des bosons libres, un état 見 est caractérisé par sa quantité de mouvement ら, et on a 﨎 size=1見 = p 2/2 m . Le nombre N size=1見 est d’autant plus grand que la quantité de mouvement ら de l’état 見 est plus faible. On montre que, si la température T est inférieure à une «température critique» Tc telle que:le nombre 0 de bosons dans l’état p = 0 devient une fraction finie du nombre total N:Cette réunion d’un nombre macroscopique de bosons dans un même état quantique s’appelle la condensation de Bose-Einstein . Cette condensation constitue un exemple simple de transition de phase : les fonctions thermodynamiques du système ont une singularité mathématique à la température Tc . La condensation de Bose-Einstein est un modèle mathématique qui n’est pas réalisé tel quel dans la nature, où les interactions entre particules ne sont pas négligeables; cependant, la transition de phase de l’hélium liquide à 2,18 K vers un état superfluide peut être considéré comme une condensation de Bose-Einstein des atomes d’hélium (qui sont des bosons) modifiée par l’existence d’interactions entre ces atomes [cf. SUPERFLUIDITÉ].La statistique de Bose-Einstein permet d’expliquer les propriétés du rayonnement du corps noir . On appelle ainsi le rayonnement électromagnétique qui existe à l’équilibre thermique à l’intérieur d’une enceinte de température T. Ce rayonnement est composé de photons qui sont des bosons. Ce nombre de photons dans l’état quantique de quantité de mouvement ら et d’énergie pc est encore donné par (21), avec ici un potentiel chimique 猪 nul. On en déduit la distribution spectrale de Planck; la densité d’énergie dans la bande de fréquence ( 益, 益 + d 益) est:3. Calcul des coefficients de transportFonctions de corrélationOn ne considère dans ce chapitre que des systèmes décrits par la mécanique classique. Le problème principal de la mécanique statistique hors d’équilibre est le calcul des coefficients de transport qui interviennent dans les équations de l’hydrodynamique décrivant l’écoulement d’un fluide. Ces équations relient des quantités qui sont des moyennes formées avec une densité de probabilité obéissant à l’équation de Liouville [cf. IRRÉVERSIBILITÉ]. C’est ainsi qu’on peut exprimer le tenseur des contraintes 嶺 靖, qui joue un rôle analogue à la pression, lorsqu’on s’intéresse à des phénomènes anisotropes, en termes de variables moléculaires (cf. théorie CINÉTIQUE DES FLUIDES). Une telle expression se compose de deux parties. L’une, mettant en jeu les quantités de mouvement des particules, domine à basse densité; c’est la partie qui intervient en théorie cinétique des gaz. L’autre partie de 嶺 靖, qui dépend des forces intermoléculaires, domine en phase liquide; cette partie «potentielle» s’écrit:福(2), densité double de paires, est la densité de probabilité pour qu’il y ait une molécule en る et une autre à la distance る de la première au temps t ; V (r ) est la dérivée par rapport à r du potentiel intermoléculaire. S’il n’y a pas de gradients de vitesse, c’est-à-dire à l’équilibre, 福(2) devient indépendant de る et de t , et le système est isotrope; la moyenne des éléments diagonaux de 嶺 靖 doit se réduire, au signe près, à la partie potentielle de la pression:Si on ajoute à (26) la partie cinétique Nk T/V, on retrouve l’équation d’état (15) qu’on avait obtenue dans le formalisme de la mécanique statistique à l’équilibre.Les expressions (25) et (26) illustrent les problèmes parallèles où sont concentrées les difficultés aussi bien à l’équilibre que hors d’équilibre: il faut évaluer 福(2), qu’on appelle aussi fonction de distribution de paire ou, à un facteur constant près, fonction de corrélation de paire . La raison essentielle pour laquelle n’intervient que la fonction de corrélation de paire (c’est-à-dire une fonction relative à deux particules seulement) est que le potentiel total peut être considéré, à une bonne approximation près, comme une somme de potentiels à deux corps (cf. théorie CINÉTIQUE DES FLUIDES). À l’équilibre, on a besoin seulement de savoir comment la fonction de distribution de paire dépend des positions; l’hypothèse ergodique élimine toute dépendance par rapport au temps, et la dépendance par rapport aux quantités de mouvement est triviale. Pour étudier les propriétés de transport, on a à résoudre un problème encore plus difficile: calculer des fonctions de distribution dépendant du temps et des positions et quantités de mouvement de deux particules, c’est-à-dire une densité de probabilité dans un espace à douze dimensions.Dans le cas d’un écoulement stationnaire, la dépendance par rapport au temps disparaît. De plus, si les gradients sont petits, le tenseur des contraintes, pour revenir à l’exemple considéré ici, dépend linéairement des vitesses de déformation; le coefficient de proportionnalité est la viscosité , qui est un exemple de coefficient de transport (cf. VISCOSITÉ). Du point de vue microscopique, la fonction de distribution de paire 福(2) qui intervient dans (26) peut être considérée comme dépendant linéairement des gradients des variables macroscopiques, et on obtient ainsi la viscosité en termes d’une fonction de distribution de paire qui ne s’écarte que légèrement de la fonction de distribution à l’équilibre; on n’a pas besoin de la fonction de distribution complète dans son espace à douze dimensions.Ces fonctions de distribution de paire sont données exactement à partir de la fonction de distribution complète (ou densité dans l’espace de phase) 福(q 1, ..., p M), en intégrant sur les coordonnées et quantités de mouvement de toutes les particules sauf deux. À l’équilibre, on peut encore intégrer sur les deux quantités de mouvement qui restent, et 福(2) ne dépend plus que de la distance r des deux particules (fig. 3); cette fonction de distribution de paire g (r ), ou fonction de distribution radiale, est directement accessible expérimentalement par l’étude du diagramme de diffraction des rayons X par le fluide (cf. état LIQUIDE). Du point de vue théorique, l’intégration multiple nécessaire pour obtenir 福(2) de façon exacte est en général une tâche impossible, et il est nécessaire de recourir à des approximations. Le principe de ces approximations est de briser les corrélations, c’est-à-dire d’exprimer les fonctions de distribution d’ordre supérieur, qui expriment la densité de probabilité 福(n ) de trouver n particules en des points donnés, en termes de fonctions de distribution d’ordre plus bas; c’est à ce stade de brisure des corrélations, en ce qui concerne les systèmes hors d’équilibre, que l’irréversibilité apparaît. L’exemple le plus simple est l’approximation dans laquelle on exprime 福(2) comme un produit de fonctions de distribution à une particule 福(1)( る, ら, t ); on obtient ainsi l’équation de Boltzmann qui décrit les propriétés de transport à basse densité (cf. théorie CINÉTIQUE DES FLUIDES, chap. 5). On a développé, ces dernières années, des méthodes d’approximation beaucoup plus compliquées en vue de pouvoir étudier théoriquement des fluides de densité plus élevée. Un résultat marquant a été la découverte de l’impossibilité de développer les coefficients de transport en puissances de la densité; certains termes dépendant logarithmiquement de la densité.Théorie de fluctuation-dissipationLes propriétés de transport peuvent être également étudiées d’un point de vue très différent: on n’essaie plus de calculer les fonctions de distribution perturbées par un champ extérieur, mais on préfère s’intéresser à l’amortissement d’une fluctuation spontanée d’un système qui est à l’équilibre. Le fondement de cette théorie est que la vitesse avec laquelle une région temporairement chaude (c’est-à-dire une région dans laquelle les particules ont à l’instant considéré une énergie cinétique plus élevée qu’en moyenne) se refroidit dépend de la conductivité thermique. Cette théorie, dite de fluctuation-dissipation, développée par R. Kubo, conduit, dans le cas de petites fluctuations, à des expressions des coefficients de transport en termes de fonctions d’autocorrélation . On a démontré que cette méthode est équivalente à la précédente. Elle a cependant plusieurs avantages conceptuels. Bien que le calcul des fonctions d’autocorrélation soit en général aussi difficile à mener que celui des fonctions de corrélation de paire, il y a pourtant avantage à n’avoir à prendre que des moyennes à l’équilibre, en particulier lorsque l’on simule sur un ordinateur la dynamique des molécules (cf. infra ).L’utilisation des fonctions d’autocorrélation pour le calcul des coefficients de transport est en fait une méthode très ancienne déjà employée par Einstein pour calculer le coefficient de self-diffusion D. Ce coefficient de transport, le plus simple, décrit la composante x du déplacement en un temps t d’une molécule de masse m , soit x (t ) 漣 x (0), lorsque cette molécule fait partie d’un système de molécules identiques en équilibre thermique entre elles. On montre que, à la limite où t tend vers l’infini, le carré du déplacement moyen est proportionnel à t , et le coefficient de self-diffusion est défini par:En utilisant les équations du mouvement de Newton, on peut facilement récrire cette expression sous la forme:L’intégrant est la fonction d’autocorrélation de la quantité de mouvement d’une particule dont la composante x de quantité de mouvement au temps t est p x (t ). Cette fonction est proportionnelle à la fonction d’autocorrélation de la vitesse:D’une façon très semblable, on peut exprimer la viscosité de cisaillement (cf. VISCOSITÉ) à partir d’un carré moyen approprié:à la limite où t tend vers l’infini; x i (t ) est la composante x de la position de la i -ième particule au temps t , et p yi (t ) est la composante y de la quantité de mouvement de cette particule. On peut récrire cette expression à l’aide de la fonction d’autocorrélation de la composante xy du tenseur des contraintes:où:face="EU Updot"La fonction d’autocorrélation de la vitesse est directement accessible à l’expérience par l’étude de la diffusion de neutrons par le fluide. D’autre part, on sait maintenant calculer à volonté les fonctions d’autocorrélation sur ordinateur, en résolvant les équations newtoniennes du mouvement pour quelques centaines de particules présentes dans une «boîte», avec des conditions aux limites périodiques. On prend les moyennes appropriées une fois que l’équilibre a été atteint, et l’absence de gradients imposés de l’extérieur rend les calculs peu sensibles aux conditions aux limites malgré la petite taille de ces systèmes.En calculant par cette méthode la fonction d’autocorrélation de la vitesse à des densités correspondant à l’état liquide (fig. 4), on a trouvé qu’après des centaines de collisions une molécule garde encore un faible «souvenir» de sa vitesse initiale. On peut expliquer quantitativement cette longue persistance de la vitesse initiale par l’existence d’un mode hydrodynamique tourbillonnaire: la particule engendre autour d’elle un mouvement d’ensemble de ses voisines qui reviennent la pousser par l’arrière. De tels processus mettent en jeu beaucoup de particules à la fois, ce qui laisse penser que pour obtenir une théorie quantitative des phénomènes de transport, même à densité assez basse, il est nécessaire de tenir compte des fonctions de corrélation de vitesses d’ordre supérieur.4. Transitions de phaseUne même substance peut exister dans des états d’équilibre qualitativement différents; par exemple, elle peut être solide, ou liquide, ou gazeuse. Chacun de ces états est une phase différente; le passage d’un état à l’autre est une transition de phase. On a mentionné plus haut un autre exemple: le passage de l’hélium liquide de l’état normal à l’état superfluide.Dans certains cas, la structure change de façon discontinue à la transition. C’est par exemple ce qui se passe lors de la fusion : la densité augmente brusquement lorsque la glace fond en eau. La transition est alors dite du premier ordre. Dans d’autres cas, c’est seulement une dérivée qui est discontinue, alors qu’un paramètre d’ordre caractérisant la structure est continu. Par exemple, lorsqu’on augmente la température T d’une substance ferromagnétique, son aimantation M diminue et s’annule sans discontinuité au point critique caractérisé par une température c (mais dM/dT passe brusquement d’une valeur finie à une valeur nulle). La transition est alors dite du second ordre .L’une des tâches de la mécanique statistique est d’expliquer ces phénomènes. Il s’agit d’un problème théorique difficile: rendre compte de discontinuités, alors que la fonction de partition Z définie en (12) est, pour un système fini, une fonction régulière des paramètres tels que la température T. En fait, le comportement discontinu n’apparaît que dans le cas limite d’un système infini (ce qui est pratiquement le cas lorsqu’on a affaire à 1023 atomes!). Depuis plus d’un siècle, à partir des travaux de Johanne Van der Waals, Pierre Weiss, Lev Landau, il s’est développé une classe de théories dites de champ moyen, qui rendent compte qualitativement des phénomènes observés mais sont en échec pour décrire ce qui se passe au voisinage immédiat d’un point critique; il y a alors des fluctuations importantes dans la structure du système considéré (par exemple, l’aimantation d’une substance ferromagnétique fluctue dans l’espace et le temps lorsque la température approche sa valeur critique), et ces fluctuations, qui sont un phénomène essentiel, sont négligées dans les théories de champ moyen. L’insuffisance des théories de champ moyen se manifeste par leur impuissance à rendre compte quantitativement des exposants critiques qui caractérisent le comportement d’un système au voisinage d’un point critique. Par exemple, lorsque la température T est légèrement inférieure à la température critique c, l’aimantation du fer se comporte comme (Tc 漣 T) 廓 où 廓 年 0,33; cet exposant 廓 est un exposant critique.Un progrès spectaculaire de la mécanique statistique après 1970 a été la construction d’une théorie des phénomènes critiques, à la suite des travaux de K. Wilson. La théorie de Wilson s’est développée à partir du concept d’invariance d’échelle introduit par L. Kadanoff: il n’y a pas d’échelle de longueur caractéristique pour les fluctuations critiques, qui ont le même aspect à toutes les longueurs d’onde (dès qu’on considère des longueurs grandes devant les dimensions atomiques). En termes mathématiques, l’invariance d’échelle est une invariance par un groupe appelé le groupe de renormalisation. À partir de ces concepts, on rend compte des phénomènes critiques, on explique les valeurs numériques des exposants critiques et leur universalité : on peut regrouper les systèmes étudiés en classes, et des systèmes très différents ont les mêmes exposants critiques dès lors qu’ils appartiennent à la même classe.Les théories modernes des changements de phase et des particules élémentaires ont beaucoup de points communs, ce qui a rapproché deux domaines de la physique qu’on aurait pu croire très éloignés l’un de l’autre.
Encyclopédie Universelle. 2012.